近年來,機器學習(ML)迅速地發展,給人們帶來便利的同時,也帶來極大的安全隱患。
機器學習(ML)模型的訓練和預測均是基於大量的資料,而資料中可能包含敏感或隱私訊息,隨著資料安全與隱私泄露事件頻發、泄露規模連年加劇,機器學習(ML)的安全問題與隱私保護已經成為其發展的絆腳石。
機器學習(ML)進步可以使用相關資料準確預測特定情況,導致企業和組織收集大量資料以在競爭對手之前預測情況,其基本原理通常是分析人們的行為模式以預測他們將遵循的下一個趨勢。
**因為公司單位或組織持有所需的敏感資料,但機器學習(ML)模型訓練者擁有解決任務的專業知識。**用於機器學習(ML)訓練的基礎資料是敏感且私密的,因此在改進其機器學習(ML)預測之前,必須首先確保其隱私資料傳遞給第三方組織使用時,而此時用以保護隱私資料的程序複雜性就會增加。
近年來,美國政策制定者一直被敦促通過促進個人選擇來規範個人資料使用,但未能成功,而歐盟則為消費者引入了廣泛的個人資料隱私保障,並在未徵得消費者同意的情況下限制個人資料使用的保護製度。因為權力不平衡在消費者和第三方資料擁有者之間,歐盟的個資保護框架是資料監管的有效方法。